GODMODE GPT: हैकर ने ChatGPT की एक प्रतिलिपि बनाई, ‘बम और ड्रग्स’ बनाने की विधि खुले आम बताई
काइबर हैकर्स इतने साहसी हो चुके हैं कि अब वे खुलकर बम बनाने का तरीका बता रहे हैं। यूएस की कृत्रिम बुद्धिमत कंपनी OpenAI को मशहूर AI चैटबॉट ChatGPT बनाने के लिए जाना जाता है। हाल ही में उसने GPT-4o मॉडल लॉन्च किया है, जो ChatGPT का सबसे उन्नत और शक्तिशाली संस्करण है। यह एक पेड़ संस्करण है, अर्थात आप इसे मुफ्त नहीं उपयोग कर सकते। हालांकि, एक हैकर ने इसकी कॉपी संस्करण GODMODE GPT बनाई है, जो बम बनाने का तरीका बताती है।
ChatGPT की कॉपी वर्शन द्वारा निषेधित चीजों के बनाने का तरीका प्रकाशित करने की विधि AI के खतरों को हाइलाइट करती है। GODMODE GPT को समाज को खतरा प्रदान कर सकने वाली ऐसी चीजों के बारे में पूछा जा सकता है। इस तरह के AI चैटबॉट के आवश्यक उपयोग का कोई भी दुरुपयोग कर सकता है। यह OpenAI की सुरक्षा व्यवस्थाओं को अनदेखा कर दिया है।
हैकर ने बम बनाने की विधि साझा की
एक हैकर जो खुद को Pliny the Prompter कहता है, ने OpenAI के सबसे उन्नत चैटबॉट संस्करण GPT-4o की जेलब्रेक संस्करण, अर्थात उसकी कॉपी संस्करण, बनाई है। हैकर ने माइक्रोब्लॉगिंग प्लेटफ़ॉर्म X (पूर्व में ट्विटर) पर इस जानकारी को दी है। पोस्ट में साझा किए गए स्क्रीनशॉट में, स्पष्ट दिखाई देता है कि यह चैटबॉट बम और ड्रग्स बनाने की विधि बता रहा है।
हैकर का AI मॉडल मुफ्त है
हैकर ने दावा किया कि यह संस्करण पूरी तरह से सुरक्षा और प्रतिबंध से मुक्त है। यहां आपको उन सवालों के जवाब भी मिलेंगे जो OpenAI के प्लेटफ़ॉर्म पर पूछे जा सकते हैं। Pliny ने कहा कि यह एक मुफ्त चैटजीपीटी है जहां हर कोई AI का पूरी तरह से अनुभव कर सकता है, और यह मुफ्त है।
GODMODE GPT बम और मैथ ड्रग जैसी गैरकानूनी चीजों को बनाने की विधि बता सकता है। ऐसे सवाल जिम्मेदार AI प्लेटफ़ॉर्म्स जैसे OpenAI और अन्य पर पूछे नहीं जा सकते, इन प्लेटफ़ॉर्म्स को ऐसे सवालों को नीति के खिलाफ माना जाता है।
OpenAI ने विरोध जाहिर किया
GODMODE GPT के आगमन के बाद, OpenAI ने कठोर प्रतिवाद दिया है। ChatGPT निर्माता कंपनी ने कहा कि उन्हें जीपीटी के बारे में जानकारी मिली है और नीति का उल्लंघन करने के लिए कार्रवाई की गई है। यह तनाव दिखाता है कि OpenAI जैसी कंपनियों और हैकर्स के बीच कितना संघर्ष है, जो AI का मुफ्त उपयोग के संदर्भ में है।